1
El Cambio hacia el Cómputo Orientado a Rendimiento
AI021Lesson 1
00:00

El cómputo ha experimentado un cambio fundamental desde optimizado para latencia el diseño de CPU hacia orientado al rendimiento arquitecturas de GPU. Mientras que una CPU es como una moto de entrega de alta velocidad (rápida para un solo paquete), una GPU es un enorme barco carguero: se mueve más lentamente por unidad, pero transporta 50,000 contenedores a la vez.

1. Latencia frente a Rendimiento

Las CPUs están diseñadas para minimizar el "tiempo de finalización" para una sola secuencia de instrucciones utilizando predicción de ramas sofisticada. Por el contrario, Unidades de Procesamiento Gráfico (GPUs) están diseñadas para maximizar el "trabajo por segundo" ejecutando miles de hilos en paralelo, sacrificando la velocidad individual del hilo a cambio de un rendimiento total masivo.

CPU (Optimizada para Latencia)ControlGran caché (L3)ALUGPU (Optimizada para Rendimiento)Muchas ALUs pequeñas

2. Asignación de Transistores

Una GPU ofrece un rendimiento mucho mayor en instrucciones y ancho de banda de memoria que una CPU dentro de un entorno de precio y potencia similar. Las GPUs están especializadas en cálculos altamente paralelos y destinan más transistores a unidades de procesamiento de datos (ALUs), mientras que las CPUs dedican más transistores a la caché de datos y al control de flujo.

3. La Evolución de CUDA

Arquitectura Unificada de Computación (CUDA) fue introducido por NVIDIA en 2006. Es una plataforma de cómputo paralelo y un modelo de programación que permite aumentos drásticos en el rendimiento aprovechando el poder de la GPU independientemente de las API gráficas.

main.py
TERMINALbash — 80x24
> Ready. Click "Run" to execute.
>